約 5,163,688 件
https://w.atwiki.jp/pcs_explanation/pages/16.html
IN/overview ISU components. Interpretation. Interpretation overview What is interpretation? Interpretation is the personal and creative translation of music by using movements with intricacy, difficulty and quality. Movement is the keyword. Variety of movement is required in all parts of the skater’s composition, in order to have depth in the interpretation of the music. All written criteria for interpretation are addressed in this DVD. But to simplify the process for the judge, we are focused on three main points of interests for interpretation. Musical movement, expressive/nuance movement, and effortless movement. IN/Music Movement http //youtu.be/Uio9PKFlEAY 2.1.2. ISU components. Interpretation. Musical movement Musical movement is movement that reflects the phrasing, the character, and the style of the musical selection. Music is played in phrases, much like different languages we speak, each piece of music, like a different language may have different rhythms and tempos, but all has a question and and an answer pattern, a question and answer phrase of music completes a whole musical sentence. Let’s listen to the musical selection from an ice dance team. This style of music is classical. (1 50) Let’s now observe what movements were performed to the music. Look to see if the movement phrasing corresponds with the musical phrasing. (3 07) The phrasing of the movement matched well with the phrasing of the music. In ice dance, the focus is on music and movement and the elements are such that they can be integrated into the interpretation smoothly. Now, a selection of music from a single skater. It is also classical. (4 20) Let’s look at what movements were performed. Pay particular attention to the movement phrasing to see if it corresponds with the musical phrasing. (5 24) Generally speaking, for singles and pairs, as the skaters prepare for their risky, technical elements, there is often a disconnect between the music and their movement. (5 46) Here is an example where the skater ignores the music, and becomes disconnected for an extended amount of time prior to the technical element. (6 13) While preparing for his second technical element, he again disconnects with the music. (6 25) In preparation for the quad toe-triple toe combination, this skater ignored the music for 12 seconds in order to set up the element, which is worth 13.8 points. Prior to the triple axel attempt, which is worth 8.2 points, he ignored the music for 11 seconds. There are many points to be gained by successfully completing the technical elements. But in numerous cases, it is at the cost of losing connection with the music and interpretation. In regards to the skater being connected to the music, let’s look at some performances. To help guide and for discussion point, we will indicate on the screen where the skater loses connection with the music and where they are connected. While we do this, consider that the technical element is part of the program, and it should work with the music, regardless of its success. (8 57) Even though there was a mistake, the disconnect with the music was very short. The movements were not always phrased perfectly, but he was both physically and emotionally connected with the music. (10 47) In the ISU judging system, the balance between technical points and component points is up to the skater. If the skater chooses to execute difficult jumps with high point values, but does not interpret the music for an extended length of time prior to the technical element, the price they pay should be reflected in the interpretation score. Looking at the time of the connection with the music between these two skaters, the skater on the left was connected for 33 seconds, and the skater on the right for a minute and 25 seconds. The disconnect time was 1 04 for the skater on the left, and just 9 seconds for the skater on the right. This is a pair skating example, where almost all the short program movements are connected to the music. (14 34) With the exception of two very short disconnects, all the entrances and exits of technical elements are performed with a full attention paid to the musical phrasing, character and style. This pair is not at the level of the previous and are disconnected for a significantly more time than the first team. (17 52) Just for interest, looking at the amount of time connected to the music, the team on the left was connected for only 56 seconds, and the team on the right was for 2 minutes and 39 seconds. The disconnect time of the team on the left was 1 minute and 56 seconds, and the team on the right just 12 seconds. There is a significant difference in the overall quality of the teams. And the difference in the amount of the time connected to the music is also reflected. IN/Expressive nuance movement http //youtu.be/oLk0a-BDY5g Expressve/nuance movement relates to the detailed finesse of the skater or the team. It is their ability to respond with personal nuances and express variations and intensity, tempo, and the dynamics of the music made by the composer and/or the musician. So, what exactly is a musical nuance? A musical nuance is anything that gives life to the music, like an increase in tempo, or elongation of a note, or the addition of instruments to strengthen a phrase, and intensity and etc. Listen to this piece of music. And although it is simply a repetition of the same musical phrase, it changes from phrase to phrase by tempo, intensity and the use of different instruments. We have revealed an audio wave graph so you can see the musical highlights at the same time you hear them. (1 27) Let’s now look at what was performed during this music, and see if you can pick one movement nuance that had nothing to do with the element, and was only there to recognize the music. (2 18) In this next example, we look more closely at the highlights of the music connected with the nuance movement using slow motion. (2 46) Notice the audio wave bar at its highest point at the same time as the skater raises her head, then quickly turns it to the left, then right to catch the downbeats following the highlight. (3 32) Nuance movements recognizing highlights or at times such small details that can be hard to see in the overall picture, but in the end, it is the small details that make a good performance into a great performance. Watching one last time without any graphics or use of slow motion, it is easier to see the detail of the movement and hear the detail of the music. (4 37) It is important to understand that the interpretation of the same music with the same choreography can greatly differ from an event to an event. If the skater is not feeling well or the technical elements are not successful, or if they are struggled, this can change the phrasing of the movement with the music. It can change the intensity of the overall interpretation of the program. Let’s look at the same skater who has good skills and a good program. On the right side of the screen you will see her best performance of the year, and on the left side the same program and music, but not skated as well. How does this affect the expression and nuance movements? (7 29) With the smallest mistakes on the left, the skater is now behind her music, and is faced with a decision whether to rush, take a shortcut or leave something out in order to catch up. The energy and thought process to make such a decision in such an important moment, takes her away from the magical connection with the music, she seems to have on the right side of the screen. (9 32) At the end of the program, it becomes clear she was unable to catch up with the music, which left her struggling both technically and with her interpretation. It should be noted that this skater was a wonderful and capable skater of the highest level, but on that day, the interpretation was affected. (9 51) Here is another example of a very good skater. Performing the same program, at two very different standards. On the left of the screen, is a very good performance from January 2008, and on the right, a more difficult and challenging performance from March of the same year. Notice that once the program begins to have difficulty, the attention to expression and nuances and interpretation begins to rapidly decline. (15 02) This example, again, demonstrates that when a skater has technical difficulty, much of the expression and nuance movement is left out, while trying to catch up to the music and returned to successfully completed the elements. IN/Effortless movement http //youtu.be/lLl44YmUhdg Effortless movement. Effortless movement is when the skater effortlessly changes the tempo, rhythm, or intensity of their skating in direct relationship with the same changes in the music. During this program, the skater keeps her speed and flow moving effortlessly from element to element, while at the same time responding to changes in tempo, and intensity of the music. (3 16) Our next example of effortless movement is from a skater who demonstrates a wonderful sense of rhythm with the music, responses to the nuances of the music with small movements. He is totally committed to the character and style of the music, and because of all this, makes the program to seem entirely effortless. It is a good example that all the aspects of the program come together, the athlete and audience are bonded through a seemingly effortless performance. IN/Conclusion http //youtu.be/Cex942xblXE The judges have many things to consider during the skater’s performance. Breaking down by item by item it seems almost impossible to assess each detail with such accuracy. So it is important that one must have an automatic understanding of the priorities in each component. In interpretation we have tried to make it simpler by concentrating on three main points, which would become your reference points prior to giving a score. Musical movement ask yourself, did the skater or the team’s movement reflect the style, character, and phrasing of the music? Did you, as the audience, or the judge, feel involved by the music and movement, or were you just watching the athletes skate, while the music happened to be played? Expressive nuance movement there is detail in every musical piece. Did the skater or the team’s movement express all details of the music, or was there no recognition of the music detail? Effortless movement Did the program appear effortless? Effortless programs often seem to go quickly, or without visible struggling and fatigue by the end. The judge will be based with certain aspects or percentages of these questions being answered “yes.” It is then up to the judge to *accurately* as possible apply the corresponding percentage overall to the scoring each component. Interpretation, it is the relationship of the skater’s movements connected with the style and character of the music. The recognition from the skater in responding with the movements and the nuances of the music. And perhaps the most difficult aspect, the ability to make all of the scenes effortless.
https://w.atwiki.jp/todo314/pages/423.html
Scalable Large Near-Clique Detection in Large-Scale Networks via Sampling Michael Mitzenmacher, Jakub Pachocki, Richard Peng, Charalampos Tsourakakis, Shen Chen Xu KDD 2015 概要 The K-clique Densest Subgraph Problemの後続 k-クリーク密部分グラフをいい感じの二部グラフ構築+疎化により爆速で解く 基本はランダムサンプリング 10~10000倍早くなった $$(p,q)$$-clique densest subgraph $$\#(p,q)$$-clique/点数 を最大化したい 提案手法 二部グラフ構築 実は(k-1)-cliqueでOK ぶっちゃけ同じらしい Densest subgraph sparsifier k-cliqueとか(p,q)-bicliqueを超辺に変換する $$ p_D = \frac{6\log n}{\epsilon^2 D} $$で各超辺をサンプルする W.h.p, $$ \rho(U) \geq D $$ なら $$ \tilde{\rho(U)}\geq(1-\epsilon)C \log n $$ $$ \rho(U) (1-2\epsilon)D $$ なら $$ \tilde{\rho(U)} (1-\epsilon)C \log n $$ 証明のアイデア Pr[Uがやばい]$$\leq n^{-3|U|}$$ だから全部足しても以外と大事 大雑把な結論 時間$$p_D$$倍、空間$${p_D}^2$$倍 超辺をその場でサンプリングすればOK 実験 p_Dとかεの値がイマイチ分かりにくい… kが大きい方が効果的 k=3 数十倍、k=4 数百倍、k=5 数千倍以上 まとめ 結構すごい ρが小さいとあまり上手く行かなさそう そういう場合はそもそも意味が無いから大きいと仮定して良いのかな? KDD 密グラフ 疎化 2017/06/11
https://w.atwiki.jp/bemani2sp/pages/1784.html
GENRE TITLE ARTIST bpm notes CLEAR RATE HARD TRANCE The Sampling Paradise Mamonis 150 1545 n%(yyyy/mm/dd) 攻略・コメント 連皿やらBSSやらが嫌らしいが、鍵盤を含めた難易度はAAより弱めに感じた。AAに緑でも付いていればノマゲは余裕かもしれない。……難は……。。 -- 1P九段 (2011-10-27 23 18 13) 終盤サビ前のBSS含めた声ネタスクラッチは覚えると楽。回しっぱ→BSS含めて3回→3回→3回→回しっぱ含めて5回→BSS含めて5回(アーーーー→アアアー→アアアー→イイイー→アアアアアーーーー→アアアアシャーン)。直後の密度も高いので注意 -- 名無しさん (2011-10-28 00 04 05) 基本的に☆12下位くらいくらいの乱打でラストで密度があがるのでラス殺し。BSS中の鍵盤捌きやBSS終わったとおもったら連皿などがくるので難はそこで削られて落ちることも。開幕連皿があるがラストは連皿はないので乱打が得意なら九段レベルでも抜けられるかも。 -- ああああ (2011-10-28 08 24 36) 中盤の連皿前に妙に叩きにくい乱打発狂がある。連皿&皿複合が苦手な人はそこを凌がないと回復が追い付かないことも。 -- 名無しさん (2011-11-04 04 44 38) 皿が苦手ならラストは回復になると思う -- 名無しさん (2012-01-12 21 52 35) ラストの密度を見切るレベルあれば道中ほとんど切らないだろう。つまりノマゲつけば難までは近い。 -- 名無しさん (2012-01-26 22 51 15) 道中の乱打は密度は低いがやや叩きづらい、ラストは高密度だが叩きやすい。全体的に密度や配置に良心が見られる、黒譜面来たら難しそう -- 名無しさん (2012-02-05 23 09 04) 終盤の連皿+BSS地帯が難所。鍵盤密度はそれほどでもないので、九段でもクリア可能。ハードは皿をきちんととれないとキツい。 -- 名無しさん (2012-02-06 17 14 32) 中盤のBSS後の声ネタ地帯からが本番。それまでは叩きにくい個所や微殺し地帯はあるものの、ゲージは100%を維持したい。連皿BSS後の乱打を捌けないとクリアは厳しいか -- 名無しさん (2012-03-04 19 22 49) 連皿があるがリズムを取りやすいため以外に取れる。鍵盤は片手でとったほうが良さそう -- 名無しさん (2012-07-13 12 47 17) 1p正規は乱打が地味に押しにくい。BSS+CNが外れるかもしれないが乱推奨 -- 名無しさん (2012-07-25 01 24 39) EXHするなら皿の絡まない個所は全てつなぐくらいで。そうすれば最初の連皿や中盤のBSSでゲージが減ってもそのあとで回復できる。2鍵盤連打に皿が絡むのが非常に押しにくいので、ここで落とさないようなら皿が嵌らない限り通る。BSSが嵌る人は、Sは反対に回さない限り結構長く回している判定が残っている事を意識するとよい。 -- 名無しさん (2012-08-17 14 55 03) 終盤に乱打に紛れて二重階段があるので注意 -- 名無しさん (2012-08-17 15 10 26) 皿は覚えてしまったほうが楽。ハード難易度は其れなりにあると思います -- 名無しさん (2012-08-28 04 08 49) 中盤のCN+BSSのところは反射的に皿側の手を使うと皿が取れなくなるので非皿側の手で片手でとる準備をしておいたほうがいい。と分かっていても無意識に伸びる左手・・・ -- 名無しさん (2012-11-15 00 36 59) ラストの乱打はAAの発狂後の密度より少し弱い感じ。連皿で削られたらそこでかなり回復できるからあきらめないように。 -- 名無しさん (2012-11-26 23 58 31) トリコロ九段ラスト -- 名無しさん (2012-12-05 13 57 31) 九段の中ではムンチャより強い バネよりましとは言われてるが -- 名無しさん (2013-03-30 01 13 14) 段位ではそれ程癖が無いため専用対策がいらない分誤魔化しが効かない。純粋な地力が求められる。 -- 名無しさん (2013-04-02 19 33 10) ムンチャがリストラされて、tricoroでは九段ボスが難化した。Lincleの九段はいったいなんなんだろう? -- 名無しさん (2013-06-04 23 23 41) ノマゲはラストの乱打地帯 難は随所にあるスクラッチがクリアの鍵。難はサンプリング地帯を抜ければウイニングランなので曲を聞いてリズムを掴んでおくとそこまで皿が苦しくないはず -- 名無しさん (2013-07-20 10 51 09) 正規があまり当たりじゃない気がする。逆に言えば乱でもそれほど難化しないため、正規易が安定してきたらちょくちょく易乱での選曲をおすすめする。 個人的にFと並ぶ中速乱打練習曲。 -- 名無しさん (2013-07-20 13 21 56) ラストは密度高いがエルピスの最後とさほど変わらないと思う。 -- 名無しさん (2013-08-04 04 28 05) 九段ボスになったけどムンチャ抜けれた人にとっては空気。段位ではその前の花粉症が猛威を振るってる模様 -- 名無しさん (2013-08-13 02 17 12) 連皿が多く、mass曲の穴に挑戦する際はハードクリアしておきたい。ノマゲ以下ならBSSやCNはクリアの障害にはならない。 -- 名無しさん (2013-11-08 09 27 41) 連皿苦手な人は3曲目に選曲しまくる事をオススメします。ラスト回復なので落ちにくいし、連皿のイイ練習になります。 -- 名無しさん (2013-12-08 17 15 41) SPADAでも続投。終始密度が高いが前作同様リラン発狂を抜けてきた人なら難所は最後の八小節ぐらいのはず。そこまでにゲージを増やして逃げ切ろう。 -- 名無しさん (2014-02-20 15 54 54) 声ネタ地帯直前のとこの密度がやばすぎるだろ・・・あそこで致命傷くらって受からないんだが・・・ -- 名無しさん (2014-02-20 17 58 11) ↑あそこ未難20くらいになっても密度高いと感じるくらいやばい。 -- 名無しさん (2014-02-21 08 07 17) ↑2 24分トリルみたいなのが降ってくる場所か。☆12半分ぐらい難の自分は易でもそこでだいたい100%からボーダー割る。 -- 名無しさん (2014-02-21 17 54 57) 正規譜面大の苦手な自分が段位でが乱の記録を更新した…2Pは当たりかも。少なくとも正規超大ハズレのムンチャよりは。 -- 名無しさん (2014-02-22 07 32 41) 九段ボスの難易度としては妥当だが、リンクルキンクダム(ボスフォルダ)の1面のためか、ラストの曲っぽくない気がする。 -- 名無しさん (2014-02-22 23 29 23) ↑3 24分トリルの後の8小節声無し乱打地帯のラストじゃないの?あそこだと段位でもゲージがブロークンするから結構問題なところだと思う。 -- 名無しさん (2014-02-23 15 25 29) ドッレッミッシッラッソッミの所、49小節目か?自分は地力A半分くらい難だけどあそこは中々の密度に感じる。 -- 名無しさん (2014-02-23 15 54 08) そこの密度が高いのに関わらず皿が普通に絡むからそこで削られて易ができない… -- 名無しさん (2014-05-24 23 33 40) 開幕の皿が出来ない程皿苦手ですが開幕からずっと補正耐えでBP75で難つきました、回復と難所が分かりやすいので許容BPは多目、なのかも? -- 名無しさん (2014-10-08 03 04 36) 難までは緩めだがEXHとなると皿を適当に回していてはまず落ちる。序盤の皿と中盤のアァァァユゥゥゥって声ネタの部分はゲージ吹き飛ぶくらいの密度なので正規では押し辛い、皿の押し引きを覚えて乱かけたほうが楽になるのは間違いないと思う -- 名無しさん (2015-02-06 23 57 24) 中盤の高密度は押しにくいけど終盤の高密度はかなり押しやすい印象。緑ランプを点けるのは地力Dの中では一番楽? -- 名無しさん (2015-06-24 08 00 15) 地力Eの半分くらいすっ飛ばして緑ついた。上の通りBSS後の正規が対象固定だとかなり押しやすい配置なので耐えやすく、緑なら尚更といったところ -- 名無しさん (2015-06-24 22 10 51) 段位やノマゲまで殺しの部分となるラスト8小節は、最後の1小節がそれまでの高密度乱打とは異なり皿絡みなので慌てないようにしっかり譜面を見切ること。逆ボし続けて、遂にイージーがつく前にハード逃げしてしまった… -- 名無しさん (2015-07-11 09 10 13) 正規鏡当たり。終盤より中盤の高密度地帯の方が押しにくくて辛いので、そこでボーダーを割らなければノマゲはチャンスあり。地力Dの中では一番楽な部類で、人によっては傲慢の方がきつく感じる。 -- 名無しさん (2016-02-11 11 28 56) 乱打に関してはアンセムが余裕でいけるくらいなら特に問題ないだろう。それでも駄目な人は皿の練習でもしよう。 -- 名無しさん (2016-03-24 23 11 24) 1P側九段BP87乱でノマゲ。正規鏡が無難ですが、乱でもそれほどひどい配置にならないので、1つの選択肢だと思います。☆11上位~地力Eまでをいろいろやってたら、少しずつできるようになりました。BPM違うので、比較にならないかもしれませんが、傲慢ちゃんの方が難しく感じました。 -- 名無しさん (2016-09-12 20 18 30) サンパラは☆11で培った乱打と皿複合が安定すればノマゲまでは安泰だね。傲慢はとにもかくにも譜面認識力が全てで、これは☆11ではなかなか身に付かない。 -- 名無しさん (2016-09-13 00 00 29) 2P側十段BP48鏡でハード。ハード地力Dは傲慢ちゃんに続き二つ目。Dの中では簡単な部類かと思われ。サビ前の連皿は落ち着いて。サビの乱打は地力がつけばむしろ回復、ラストの皿複合も乱打で回復できれば逃げられるかと。 -- 名無しさん (2016-11-28 23 08 25) tricoroから5作連続で九段ボスに。前座のリランでどれだけ耐えられるかが鍵か。 -- 名無しさん (2016-12-08 11 00 57) もはや完全に九段に定着。最後の高密度がやはり壁だが、それまでも局所発狂や皿絡みでちくちく削ってくるので、そこ以外ではしっかり回復できるようでないとジリ貧になる -- 名無しさん (2017-01-23 11 03 17) 九段挑戦段階の人は最後の乱打からが勝負。しかし最後の乱打は地力譜面のため難挑戦段階の人は最後の乱打までいければウイニングラン。 -- 名無しさん (2017-11-03 13 30 47) 総合譜面、ラストは高密度ながらも素直な乱打なので人によっては最後でゲージをあげてのクリアもあり得る。 -- 名無しさん (2017-11-03 15 49 27) 癖譜面ではなく、地力と皿複合が求められる譜面。 -- 名無しさん (2017-11-24 19 47 33) BP50くらいでハード狙えますかね? -- 名無しさん (2018-04-20 19 37 38) 出方によるが多分いける ラスサビの乱打だけでゴリゴリ削られるようなら地力が足りないからFとかマクイルで練習するのがいいかも -- 名無しさん (2018-04-21 01 53 59) 俺65出たけどハードついたよ。連皿抜けたらなんとかなった -- 名無しさん (2019-05-25 09 09 18) BP93で易付きました。ラストはもちろんだけど中盤のサビ終盤のごちゃっとした所が押せるかっていう印象だった。今まで誤魔化さずに運指や地力を上げていればD帯の中では付きやすいのかも。 -- 名無しさん (2019-07-31 02 29 09) 連皿抜けたら勝ち…と思うが、ゲージ1桁台だと厳しいかも。ラストの乱打で回復して、皿がらみをたえよう。 -- 名無しさん (2019-08-24 10 59 08) ↑すみません、ハードの話です。 -- 名無しさん (2019-08-24 11 00 11) 前作SP八段で正規でアシスト付きました。結構個人差やばそう -- 名無しさん (2020-11-12 18 37 33) 地力DにAAとかあるの考えると譜面傾向が違うとはいえやっぱ個人差というかだいたいの人が簡単に感じるかも -- 名無しさん (2020-11-15 21 42 17) 所謂地力Dではおそらく下位の部類。ノマゲ以下ではほぼ鍵盤力しか要求されない譜面 -- 名無しさん (2023-02-23 04 12 51) これで太刀打ちできなければ☆12なんか無理に触らずにもっと勉強になる☆11がいくらでもあるよっていう、そういう譜面 -- 名無しさん (2023-02-23 15 04 38) 最終的に皿ゲーとなる曲。BSS部分は1拍で1回転とか決めるとよい。ターンテーボージャンキーになれ。 -- 名無しさん (2023-03-18 07 23 06) アシストとか参考にならんな -- 名無しさん (2023-03-24 21 41 28) 実はBSSとCNが同時に降ってくるのはこの譜面が初。乱でやると7分の2の確率で皿側にCNが来るから、間違って皿側の手でCNを取ったときに反対の手に切り替える練習がすることができる数少ない譜面。CNとBSSの間は余裕があるので、あっ間違えて皿側のでCN取っちゃったと思ってからでも切り替えは十分に間に合う。 -- 名無しさん (2023-06-02 19 51 39) 八段ですがイージーつきました 皿複合が得意な人は中盤耐えて声ネタ地帯で100%まで回復してラスト耐えればワンチャンスあります イージー狙い段階では乱に当たり外れがあるので時々触るくらいが良いかもです -- 名無しさん (2023-10-29 10 37 10) 名前 コメント
https://w.atwiki.jp/splint/pages/19.html
1. Operation Splint is invoked by listing files to be checked. Initialization files, command line flags, and stylized comments may be used to customize checking globally and locally. The best way to learn to use Splint, of course, is to actually use it (if you don’t already have Splint installed on your system, see Appendix A). Before you read much further in this document, I recommend finding a small C program. Then, try running splint *.c For the most C programs, this will produce a large number of warnings. To turn off reporting for some of the warnings, try splint -weak *.c The -weak flag is a mode flag that sets many checking parameters to select weaker checking than is done in the default mode. Other Splint flags will be introduced in the following sections; a complete list is given in Appendix B. ファイルのリストをSplintに渡すことにより、チェックが行われます。 初期化ファイル、コマンドラインのフラグおよび、様式化されたコメントは、グローバルやローカルでチェックすることをカスタマイズするのに用いられるかもしれません。 もちろん、Splintを使うことを学ぶ最高の方法は、実際にSplintを使うことです。 (もし、あなたのシステム上に、Splintがインストールされていないならば、Appendix Aを見てください) あなたが本ドキュメントを読み終える前に、小さなCプログラムでSplintを起動することを推奨します。 splint *.c ほとんどのCプログラムでは、多数の警告を出します。 一部のチェックを無効にするには、下記を試します。 splint -weak *.c weak は、デフォルトモードより弱いチェックで実施するためのモードフラグです。 他のフラグは以降のセクションで説明します。完全なフラグのリストは、Appendix Bにあります。
https://w.atwiki.jp/pathofexile12/pages/43.html
入手方法 詳説・特徴 関連リンク Amplification Rod Spiraled WandWandsQuality +20%Physicalダメージ 12-37.2クリティカル確率 7.00%攻撃速度 1.30DPS 32.0 pDPS 32.0 ステータス要求値:LEVEL36, 83 INT (15-19)% increased Spell DamageSpellダメージが(15-19)%増加 +1 to Level of Socketed GemsソケットされたGemに+1 Socketed Gems are Supported by Level 1 Increased Area of Effectこの装備にソケットされたGemはレベル1のIncreased Area of Effectでサポートされる Socketed Gems are Supported by Level 1 Spell Echoこの装備にソケットされたGemはレベル1のSpell Echoでサポートされる Socketed Gems are Supported by Level 1 Controlled Destructionこの装備にソケットされたGemはレベル1のControlled Destructionでサポートされる +(10-30) to IntelligenceIntelligenceに+(10-30) No one likes a quiet encore. 入手方法 カード等のドロップ以外の入手方法 アイテム 必要数 備考 Power Magnified 1 予言を達成することで取得 Reverberation Rod 1 詳説・特徴 関連リンク 英wiki https //pathofexile.gamepedia.com/Amplification_Rod Unique Wands 一覧
https://w.atwiki.jp/shutaro47/pages/84.html
基礎理論のための参考資料②:Calculation Gas SPectra(www.spectralcalc.com)の翻訳ノート 英語の翻訳はあまり自信がないが、専門用語の関係を明確にしておくための単なるノートである。 NASAを中心として利用されている大気関連分子の吸収・発光スペクトルを計算して表示する有料サイトの解説の一つである。基本的なことからいくらか専門的なことに踏み込んで、利用者の理解の一助となっている。HITRAN2012とGEISA2003データベースを利用することができる。 Calculation of molecular spectra with Spectral Calculator Understanding observed spectra is the foundation of remote sensing, and more often than not, gas spectra play a significant role. We describe here the methods used by the Spectral Calculator (www.spectralcalc.com) to compute the spectra of molecular gases.These are presented with some brief justification, but mostly without detailed derivations.Gordley et al. (1994) described in detail the LinePakTMalgorithms that are used for these calculations. The LinePakTMcalculations have been extensively compared to other LBL rotational-vibrational calculations (e.g. Gordley 1994, and Kratz 2005). The LinePakTMlibrary has served as the radiative transfer calculation engine in the data processing systems for the satellite sensors HALOE and CLAES (on the UARS satellite), SABER (on the TIMED satellite), and SOFIE (on the AIM satellite) The goal here is simply to give users the background needed to correctly apply and interpret the results from the Spectral Calculator. 観測されているスペクトルを理解することがリモートセンシングの出発点であり、多くの場合、ガススペクトルは重要な役割を果たす。ここでは、分子性ガスのスペクトルを計算するSpectral Calculator (www.spectralcalc.com)が使っているいくつかの方法を説明する。いくつかの簡単な正当性を示す根拠を示しながら解説を行っているが、ほとんどの場合、詳細な式の導出は行っていない。LinePakTMアルゴリズムはGordley et al. (1994) らによる詳しい解説があるが、ここでの計算に使われている。LinePakTM計算は、他のLBL(line-by-line)回転-振動計算と詳細にわたり比較調査されている (e.g. Gordley 1994, and Kratz 2005)。LinePakTMライブラリは、衛星センサHALOEやCLAES(UARS衛星)、SABER(TIMED衛星)そしてSOFIE(AIM衛星)のためのデータ処理システムにおける放射伝達計算のエンジンとして使われている。ここでの目的は、Spectral Calculatorの結果を正しく適用したり解釈したりするための基礎知識を利用者に提供することである。 Line-by-line models Molecules absorb and emit radiation only at certain discrete frequencies or wavenumbers,corresponding to allowable changes in their quantum energy levels. This produces a unique spectrum for each gas species. To begin a discussion of modeling molecular spectra, it’s useful to define several quantities 分子は、量子エネルギー準位間の許容変化に対応するある決まった周波数もしくは波数の光を吸収したり放射したりする。この過程はそれぞれのガス種に固有の異なるスペクトルを与える。分子スペクトルのモデリング(理論や計算のモデルを作ること)の議論を始める前に、いくつかの量を定義しておくことは有用である。 ν wavenumber (cm-1) 波数 number of waves per cm.ν=f/c=104/λ where f= frequency (Hz), c= speed of light (cm/s), and λ= wavelength (μm). τν transmittance 透過度 = 透過光/入射光 = It/ I0 ratio of transmitted radiance to incident radiance at wavenumber v εν emissivity 射出率 = 発光強度/黒体の発光強度 ratio of emitted radiance at v to the radiance emitted by a blackbody at the same temperature αν absorptivity 吸収率 = 1 - 透過度τν (= (I0-It) / I0) fraction of incident radiance at v that is absorbed (We adopt the convention of using a subscript ν to indicate quantities that have spectral dependence.) Kirchhoff s law equates the absorptivity to emissivity at each wavenumber. Further, in the absence of scattering or reflections, the absorptivity is the compliment of the transmittance αν= εν = 1 -τν Eq.1 (スペクトル依存性を持つ量を示すため、添え字νを使用するという慣例を採用している。)キルヒホッフの法則は、それぞれの波数において吸収率と射出率が等しいとしている。さらに、散乱や反射がないという前提で、吸収率は透過度の補完になっている。(注:complementのミススペル:補うもの、補完するもの、補数、補集合などの意) 図1.透過スペクトルの例。赤い線は0.1気圧CO2350ppmvにおける10㎝光路のシミュレートされたスペクトルである。差込み図は、一つの吸収線を拡大表示したものであり、線の形が明瞭にわかる。それぞれの線の位置、深さ、形は、分子の量子力学的性質と圧力、温度、ガスの濃度から決定される。668cm-1の強烈な吸収の描像は、実際、多くの重なりあった吸収線の重ね合わせとなっている。これは、Qブランチと言われ、量子角運動量が不変で遷移するグループである。量子角運動量が1量子数減少もしくは増加する遷移は、Qブランチの左と右に吸収線群の包絡線状的かたまり(envelope)を作り出し、それぞれPおよびRブランチと呼ばれる。 (この辺から英文は割愛しようと思う。また、図や表も原文を直接参照して欲しい。) さてここで、一つの均一ガスの透過スペクトルの計算を見てみることにする。図1はCO2の透過スペクトルの例である。吸収線は透過スペクトルの中ではくぼみとして現れる。それぞれの線はある幅と深さがあり、ある特定の波数を中心にしている。線の位置と形は、分子の量子力学的性質によって決まり、温度や圧力といったマクロ的条件の影響を受ける。スペクトルは最初の原理から計算して求めることができるが、しかし、ほとんどの応用において、この方法で達成された精度は不十分である。そのかわり、様々な実験室での多様な条件において測定されたスペクトルを再現するようにフィットする線のパラメータを導入している。それぞれの吸収線は、それゆえ、いくつかのパラメータのセットになっている(Table2参照)。これらのパラメータから、吸収線はどのような圧力、温度、ガス濃度においても形成することができる。吸収線のグループに対する線パラメータの収集はline listと呼ばれている。HITRANは、おそらく、大気応用において最も包括的な共通に利用されているline listである。(Rothman, et al., 2008) あるスペクトル領域における混合ガスの透過スペクトルをシミュレートするためには、それぞれのガスの吸収線を計算しなければならない。線の中心がスペクトル領域の外であっても、その翼が領域内にあれば内包しなければならない。完全なスペクトルは、実際、個々の吸収線スペクトルの積算した結果である。このように個々の吸収線のスペクトルを足し合わせて積み重ねることにより分子スペクトルをシミュレートするアルゴリズムのことをline-by-lineモデルと呼び、利用可能なものの中で最も正確な分子吸収の予測を与える。我がSpectral Calculator(社)が使用しているline-by-lineモデルはLinePakTMlibrary(Gordle, et al,. 1994)である。NASAや他の世界的研究機関は、衛星計画や大気リモートセンシングプロジェクトにおいて、LinePakTMソフトウェアに依存している。 分子吸収以外に、大気中の光の強度を減少させる他の相互作用があるということは認識しておかなければならない。いくつかの重要な効果は、小粒子(エアロゾル)による散乱、分子散乱(レイリー散乱)、連続吸収帯である。ここでは、しかしながら、分子の吸収線と発光線にのみ集中することにする。 Beer-Lambert Law 透過度,τν, は、入射光強度に対する受光強度の比である(Fig.2)。透過度は一様な吸収体の中を通過する距離の指数関数で減少し、ブーガーの(Bouguer s) またはBeer-Lambert の法則(Beer-Lambert law): τν= e-kνx Eq.2 で表される。ここで、kνは吸収係数であり、xは光路長である。当然のことながら、kνは光路に沿っての分子数に比例する。理想気体の圧力P、温度Tそして混合体積比qで、吸収係数は kν= (qP/kT)σν Eq.3 ここで、kはボルツマン定数である。すべてのスペクトル依存性はクロスセクション(断面積:吸収断面積?),σν(cm2/molecule),に含まれる。それゆえ、Beer-Lambert の法則は、 τν= exp{(-qPx/kT)σν} = exp(-uσν) Eq.4 ここで、u=qPx/kT はmass path(適切な訳語がわからない。そのままマスパス)であり、経路上の断面積当たりの分子数を与える(molecules/cm2)。さらに、計算のスペクトル依存性を分離するため、クロスセクションをスペクトルに依存しない線強度Sとスペクトル線の曲線gνの積で記述する。 σν = Sgν Eq.5 Sはcm-1/(molecule/cm2)、gνは1/cm-1の単位を持つ。(波数の単位と面積の単位を分離しておくことは、結果をcm/moleculeと記述するより好ましい。)最終的に、分光透過度spectral transmittanceは、 τν= exp{ (-qPx/kT) Sgν} Eq.6 Line Shape 分子スペクトルのシミュレートにおける努力のほとんどは線の形(ラインシェイプ:line shape)gνを個々の吸収線に対してコンピュータ計算することである。最初に、線の中心の位置が決定される。中心の波数νcは直線的に0圧力の位置νc0から圧力に対して増大する。 νc=νc0 + δP/P0 \Eq.7 パラメータνc0とδは、HITRANのような適切なラインリストline list の中で見つけられる。 図1に見るように、特定の分子遷移の吸収はある一つの波数に制限されておらず、ある波数範囲に広がっている。この吸収線の広がりは3つのメカニズムによって引き起こされる。第1は、すべてのスペクトル線はハイゼンベルクの不確定性原理からくる自然幅を持つ。しかし、これはほとんどいつも他の広がり効果と比較すると無視できるほど小さい。第2は、熱運動がランダムなドップラー速度を各分子に分配し、集団全体の吸収は、ある波数領域にわたってぼやける効果を引き起こす。最後は、ランダムな衝突が個々の分子のエネルギー準位に摂動を与え、それぞれ少しずつ異なり、累積した効果は圧力広がりとして知られている。 0.01atm以下の気圧(30㎞より上空)で、ドップラー広がりが支配的になる。この結果、線の形はガウシアン型(Gaussian line shape)となり、その半値幅は: Eq.8 となる。ここで、mは分子質量、cは光速である。(数式は省略したので、原文を参照。) 0.1atm以上の気圧(16㎞より低空)で、圧力広がりが支配的になり、線の形はローレンツ型(Lorents line shape)となる。広がりの量は衝突に含まれている分子のタイプにいくらか依存している。同じ種同士の2つの分子の衝突による広がりは、ある分子とN2分子との間のものと著しく異なるため、ローレンツ半値幅αLは、空気広がり半値幅(air-broadened halfwidth) αLa0と自己広がり半値幅(self-broadened halfwidth) αLs0の加重平均から、圧力と温度で調節して、 Eq.9 で計算される。ここで、T0=296K。ところで、我々は共通の仮定をしている。つまり、空気広がりと自己広がりの両方で同じ温度指数γを適用していることである。再度述べるが、パラメータαLa0、αLs0、γはHITRANのようなラインリストline listから得られる。ドップラーとローレンツ広がりの結合はより一般的なフォークトプロファイル(フォークト関数)Voigt profile: Eq.10 を得る。フォークトプロファイルは高い圧力ではローレンツ型(αL?αD)、低い圧力ではドップラーもしくはガウシアン型(αL=αD)になる。フォークトプロファイルの計算後、線の形に追加修正を加え、遠い翼効果(far-wing effects): Eq.11 を考慮する。ほとんどの応用においてフォークトプロファイルは正確であるが、他の線の形(ラインシェイプ)が望まれる場合がある。非常に低波数の場合、Van Vleck-Weisskopf ラインシェイプがより適切である(Appendix Aを参照)。本Spectral Calculatorは、νc 200cm-1のときVan Vleck-Weisskopf ラインシェイプを使用し、それ以外は、すべてフォークトプロファイルである。他の効果、たとえば、ラインカップリングline-coupling や速度に依存した広がりが、ある条件において重要になる。しかしながら、多くの場合、フォークトプロファイルは容認できる結果を与え、本Spectral Calculatorのような一般用途の目的においては当然の選択である。 Line Intensity さて、最後に残った項として、Eq.9で定義した透過度の計算における線強度Sを考えよう。HITRANや他のラインリストはS0つまり、T0=296Kにおける線強度を提供する1。任意の温度Tにおける線強度の計算のため、増感発光効果を説明するためのボルツマン因子を導入し、振動と回転運動の分配関数QVとQRを取り入れる。 Eq.12 1 ここで、ELは遷移の低準位エネルギー(HITRANでも提供されている)である。振動と回転の分配関数の複合効果は、温度の関数としてパラメータ化された、全内部分配合計(TIPS total internal partition sums)の集計から発見されている。 Transmittance spectrum これまで、我々は一つの吸収線からどのようにして透過スペクトルを計算するのかを議論してきた。混合ガスの観測されたスペクトルは、興味対象のスペクトル領域の中もしくはその周辺における、すべてのガスのすべての吸収線のスペクトルであろう。Eq.3から、混合ガスにおけるj番目のガスのi番目の吸収線のスペクトルは、 Eq.13 ここで、断面積σとマスパスuはEq.6-10から計算される。完全なスペクトルは、すべてのガスのすべての線の透過スペクトルの積算: Eq.14 である。強い線は線の中心から遠く離れたところまで大きな両翼を持ち、弱い線の翼は急速に減少する。それぞれの線の中心から十分に離れたところまで計算を続けることは重要である。たとえば、1800cm-1の強い線の遠い翼は2000から2010cm-1までの領域のスペクトルに影響する。スペクトル領域に依存しているが、数万から数百万の重要な吸収線と断面積があり、それらの各々は、線の形を完全に捕捉するための十分高いスペクトル分解能で計算されなければならない。このため、断面積の計算と積算を精度を失わずに効果的になるよう、大いなる努力を払わなければならない。 Radiance 一般的に、観測されたスペクトルは透過した光と発光した光の両方であろう。(日本語でRadianceのことを放射もしくは放射光とよく訳すが、単なる光としての意味合いが強く、ここではRadianceを光と訳した。透過光も放射光もRadianceである。)さて、温度Tsの黒体があり、あるセンサでそれを観測しているが、センサと黒体の間に温度Tgのガスがあるとしよう。ガスは黒体からの放射光のいくらかを透過し、同時に、自分自身いくらかの放射光を放出する。センサが検出した放射は、次のような和になるであろう。 Eq.15 ここで、Bν(T)はプランクの黒体関数、τνはガスの透過度であり、ενはその射出率である。散乱効果を無視すると、εν=1-τν(Eq.1)、それゆえ、 Eq.16 この式の極限の場合を検証することは重要である。完全に透明なガス(τν=1)の場合、検出された放射は単純に源の放射:Lν=Bν(Ts)である。もし、ガスが完全に不透明(τν=0)であれば、これは完全な黒体:Lν=Bν(Tg)として振る舞う。もし我々が背景の源の温度をゼロにしたら、ガスの発光スペクトル:Lν=ενBν(Tg)のみが残る。もし、そのかわり、ガスの温度がゼロであったら、透過スペクトルによって調整されて源の放射光のみ:Lν=τνBν(Tg)が観測される。(注:おそらく数式のミスであろう。Lν=τνBν(Ts)が正しい。)Fig.3はこれらの効果を示したものであり、暖かい黒体放射源を2酸化炭素の冷たいガス体を通して観測したものである。680cm-1付近、この吸収線は飽和しているが、放射スペクトルは冷たいガスの温度の黒体放射と一致する。どの強い吸収からも離れた領域では、暖かい黒体放射スペクトルは減衰していない。 図3.背景の黒体の前の2酸化炭素の放射スペクトル。背景は320K、CO210%、280Kの1mガス体を間において観測。(残りのガスは透明と仮定されている。)透過度が0のとき、観測されたスペクトルは280Kの黒体放射と同じになる。透過度が1のとき、320Kの背景と同じになる。もしも、ガスが背景より暖かった場合、吸収線は逆に発光線になる。 Atomospheric Path 例えば惑星大気の透過経路のように、より複雑な経路のスペクトルを計算するためには、経路を小さくセグメントに分割し、それぞれのセグメントでは様々な環境条件(圧力、温度、ガス濃度)が一定と見做せるようにすることである。そして上で述べた技術を応用することである。これは、Fig4に示してある。LinePakでは、セグメント中の実効圧力、温度、濃度は、環境条件のマス加重化(mass weighting)によって決定される。詳細は、Gordley,et al 1994にある。全経路の透過スペクトルはそれぞれのセグメントのスペクトルを積算したものである。長い経路はかなりの屈折の影響を受ける可能性がある。このこともまた、考慮されなければならない。当然ながら、このような計算は急速にコンピュータ集約型となり得る。本Spectral Calculatorで使用しているLinePakTMlibraryは効率を最大限にするよう注意深くデザインされている。そして、このような複雑な大気スペクトルは、精度を保ったまま、可能な限り高速に計算処理することができる。 図4.赤い線は屈折を考慮したもの 訳者コメント: 太陽光の地球の吸収は図4の逆の現象が起き、本来は大気を通過するだけの光が屈折して地球に降り注ぐことが起きる。太陽が本当は沈んでしまっているのに、屈折した光が地表に届くため、日没は予定時刻より遅くなる。また、太陽光はレイリー散乱が起き、大気中の分子によって四方八方にいくらか散乱されるため、地表に届くべき光のいくらかは散乱により宇宙へ逃げていくが、大気を通過するだけのはずの光の散乱も起きていくらか地表に届くようになる。レイリー散乱は可視光以上の短波長の光で強く起こるが、赤外線以下の長波長の光はあまり散乱は起きにくいという周波数と散乱の関係がある。それゆえ、散乱と屈折の影響を考慮する必要がある。 ここでの定式化は、吸収スペクトルを計算するための特殊なやり方で行われている。そのため、他の理論との整合性が取りにくくなっている感がある。厳密な意味で、他の理論体系と整合性を取って議論する必要があるであろう。
https://w.atwiki.jp/terragen/pages/216.html
Node Type Render ノード説明と目的 注意) 『Render Pixel Sampler』は、適応ピクセルサンプラーのパラメータを含むノードで、『Render』ノードの内部ネットワークに含まれています。『Render Pixel Sampler』ノードをしても問題はありませんが、デフォルト設定で次回に画像をレンダリングするか、または[Edit Sampling...]ボタンを押す事で新たなノードを作成する事も出来ます。ただし、『Render Pixel Sampler』ノードを追加作成しないで下さい。予期しない動作が発生する可能性があります。 設定 Anti-aliasing アンチエイリアス "Ray trace objects"、または"Ray trace everything"を使用する場合、画像のクオリティはこのパラメータに大きく依存します。実際、このパラメータは、適応ピクセルサンプラのパラメータをコントロールするするプリセットのようなものです。通常は自動で適切なプリセットが選ばれていますが、より精密なコントロールを望む場合は、この数値を編集する事で可能になります。 Max samples per pixel ピクセルあたりの最大サンプラー "First sampling level"を "Max samples (non-adaptive)"に設定しない限り、"Pixel noise threshold"が適応サンプリング(=適応アンチエイリアシング)に使用されます。例えば、"Anti-aliasing"が4に設定されている場会、"Max samples per pixel"を16、"First sampling level"を"1/16 first samples"に設定します。これにより、最大サンプル数が16の場合、1ピクセルあたり1サンプルの最小値が得られます。"Min samples per pixel"は、"Max samples per pixel"と"First sampling level"のポップアップからの選択に依存します。また、アンチエイリアスは奇特な間隔で処理するため各ピクセルについて必ずしも同じではない可能性があるため、値の隣に"mean(平均)"と表示されます。上記の例では、まずTerragenはピクセルごとに1つのサンプルを取ります。4ピクセルごとに、それらのピクセルの輝度とピクセルの平均輝度の違いを検分します。これは、このエリアにどれだけのノイズやコントラストがあるかを推定する方法です。総差が"Pixel noise threshold"の設定値よりも大きい場合、そのピクセルは4つのサブピクセルに細分化されます。このプロセスは、サブピクセルに続き、一度に4つのサンプルのセットを比較してさらに細分化するかを決定します。次のレベルに細分化するかを決定するために使用される実際のしきい値は、ピクセルのサイズと比較した現在の細分レベルにおけるサンプル間の間隔に依存します。より細かな細分化レベル(より多くのサンプル)では、サンプルのそれぞれがピクセル結果への寄与が少ないため、許容できるしきい値をより高く(細分する可能性は低い)する事で、出来る限り早く細分化を中止する手助けをします。同様に、"First sampling level"が1ピクセルあたり1よりも粗い場合、"First sampling level"で使用される実際のしきい値は入力された値よりも低くなります。"Min samples per pixel"が1未満である事を示す設定を選択した場合、これは"First sampling level"の間の間隔が1ピクセルより大きくなる事を意味します。"Anti-aliasing"が1で、"First sampling level"が"1/4 first samples"の時、これは4ピクセル(2ピクセル間隔)ごとに"First sampling level"が存在する事を意味します。同様に"Anti-aliasing"が2で、"First sampling level"が"1/16 first samples"にも当てはまります。"First sampling level"をこれより粗くする事も出来ます。通常、低クオリティのプレビューに役立つだけですが見た目に悪くなく高速です。アンチエイリアスレベルが2の累乗である場合、すべてが理にかないます。これは1,4,16,64の最大サンプルに対応します。適応プロセスの全レベルでのサンプル間の間隔は2の累乗になります。ただし、Terragenのアンチエイリアスレベルでは、奇数値を使用すると、"First sampling level"のサンプルが正確なピクセル間隔にならない事があります。そのため、ピクセルあたりの平均最小サンプル数が非整数になる事があります。現在のところ、適応サンプラーは個々のRGBコンポーネントではなく、輝度から調整しています。異なる色相、彩度値を有しますが、同じ"luminance(輝度)"を与えるサンプルは等しいと見なされるので、色および彩度の高い量のノイズがサンプラにより許容する事が出来ます。これは、人間の視覚がこれらの高周波数の変化にあまり敏感でないため、多くの場合許容されます。また、輝度計算では、これらの値の加重値によって、青色チャネルで最もノイズが多く、緑色チャネルで最もノイズが少ない事も意味します。しかし、この近似が十分でない状況が多いので、将来のバージョンでこれを変更するオプションを追加します。 Min samples per pixel ピクセルあたりの最小サンプラー Customise sampling サンプリングのカスタマイズ First sampling level 最初のサンプリングレベル Pixel noise threshold ピクセルノイズのしきい値 Legacy adaptive sampler 旧来のアダプティブサンプラー 設定した値に応じて、ノイズの発生しやすい場所でのサンプリングが増加します。多くの場合レンダリング時間とクオリティのバランスが優れているため多くの用途に適応します。ただし、この旧式のアダプティブサンプラーは、特に暗いサーフェスで、パストレースによって作成されたモンテカルロノイズの一部を処理するのに問題があります。 New curve 新しいカーブ これを有効にすると、隣接するサンプルとのコントラストのために適応サンプラーがRGB値をどのように推定するかを変更します。主な違いは、"New curve"が明るいピクセル(特に超明るいピクセル)のノイズ耐性を高め、影や中間範囲に費やす時間が長くなる事です。有効時はレンダリング時間が通常より短くなります。これにより、より高いアンチエイリアシングを使用して、より短時間でより高品質の画像を得る事が出来ます。 Robust adaptive sampler ロバストアダプティブサンプラー これを有効にすると、適応サンプラーは、画像品質を向上させるために、より堅牢な取り組みを使用してノイズを推定します。そのため、スーパーサンプリングのために考慮されている現在のピクセルまたはサブピクセルを囲むサンプルのより大きなグリッドを調査します。これは、DOF(被写界深度)、3Dモーションブラー、パストレース、まばらな小さなオブジェクトからのノイズが多いシーンをレンダリングする場合に重要です。アニメーションの一時的なエイリアシングを減らすのに役立ちます。古い適応サンプラーでは見逃されがちなサンプルが含まれているため、繊細な植物の品質を高める事が出来ます。有効時はシーンに依存するため、レンダリング時間が以前より短くなったり長くなったりする事があります。画像の一部は以前よりもノイズが目立つように見える事がありますが、他の部分はよりきれいに見える事もあるので、アンチエイリアスやピクセルノイズのしきい値を調整して、要求する結果を得るためのコントロールをして下さい。これの有効時は、上記の"New curve"が自動的に使用されます。
https://w.atwiki.jp/matchmove/pages/43.html
Opening the Shot ショットを開く ショットのトラッキングを始めるには、起動後File/New(ファイル/新規)やFile/Import/Shot(ファイル/入力/ショット)を選択します。 AVI、QTムービー、MPEGファイル、連番ファイルの最初のフレームのJPEG、TIFF、BMP、SGI、Cineon、SMPTE DPX、Targaファイルなどを選択する必要があります。 Macでは、正しく書き出されていれば、ファイルの種類は拡張子が無くとも自動的に決められます(OSXで定められている拡張子に限ります)。 PCかMacで、もしイメージファイルに拡張子がなかったりファイルの種類が判らないときには、Open File(ファイルを開く)ダイアログボックスで、Just Open It(それを開く)を選択して、それで表示されたファイルを選択すると、SynthEyesが自動的に種類を判定します。 注意 SynthEyesは、セキュリティの確立された環境で、既知のイメージ上での使用を前提としています。インターネットまたは他の未知の要因から得られたイメージによってもたらされるウィルスに対抗するようにアップデートされることはありません。そのようなイメージは、SynthEyesまたはコンピュータを破壊する原因になったり、あるいは、危険なソフトウェアによって不正にのっとられる原因になるかもしれません。 SynthEyesは、通常ファイル・シーケンスごとに1つのIFL(画像ファイルリスト)ファイルを作成し、イメージと同じフォルダに、それを書き出します。 IFLは全体のシーケンスのための信頼できるプレースホルダとして機能し、SynthEyesが全てのシーケンスを再チェックする必要がないので、特にネットワークを介してのシーケンスの開き直す時間を節約します。IFLファイルがあなたの画像管理システムと相性が悪い、もしくはあなたが異なったマシンから同じ画像シーケンスを頻繁に開くなら、各コンピュータから異なったファイル名の、同じ画像シーケンスを作り出して、あなたはWriteをオフにすることができます。 preferenceの Match image-sequence frame # s は,シーケンスの初めに余分なフレームを生成するよう、設定されます。そのため、SynthEyesフレーム番号はファイルのフレーム番号に合います。(全体のショットが既にありましたらこの必要は全くありません。)。この設定はいつもこのマッチング(シーケンスの番号を合わせる事)を必要とするある他のプログラムとの相互作用を簡素化できます。そして、ショットの‘in ポイントの周りで編集が変化した時の変更をより簡単にすることができます。 (下記のPrepend Additional Frames setting(前もって付加フレームを設定する)を参照。) このpreferenceが、全く他のアプリケーションまたはそれらのエクスポーターと必ずしも互換性を持つというわけではありません。 それを使用する前に、このpreferenceをテストして、影響を必ず熟知しておいてください。 Basic Open-Shot Settings 次の設定があなたのショットと一致するように調整してください。 あなたはこれらの設定をShot/Edit Shotの後に変えることができます。 もしあなたが始めるときに全ての設定を理解していなくても、うろたえないでください;多くは高度な状況の時だけに提供します。 Image Aspect は正しい結果を得る上で最も重要になる設定です。 Maya ユーザーが Maya プリセットに対応しているプリセットを使うことを望むかもしれません。 Image Preprocessingボタンが、もう1つのパネルを起動することに注意してください;私たちは、基本的なオープンショット・ダイアログの後にそれらを設定します。 Start Frame, End Frame フレームの範囲を調整します。このパネル、またはタイムバーの枠の端の「+-」をshift+ドラッグすることで調整できます。 Frame rate 通常1秒当たりのフレーム数は、24、24.98、または29.97です。NTSCは米国と日本、PALはヨーロッパで使用されます。 一般に、フィルムは24fpsです。 高(低)フレームレートショットやマルチメディアプロジェクトの為に、他のレートを設定することもできます。ソフトウェアによっては25か30fpsに、(小数点を)丸めるかもしれません。 SynthEyesは、あなたが正確であるか大体の値を使用するかどうか気にかけません。 Interlacing フィルムかプログレッシブ・スキャンDVの時はNone。25/30fpsはYesを(常に他のフィールドをスキップします)。 急速なぶれをトラッキングする能力をいくらか損失しますが、必要なトラッキングの量を最小にします。 同じものにYesとButを使用してください。Butは、他のフィールドを保つときに使用してください。インターレースビデオの最初のフィールドによって、Starting OddかStarting Evenを使用してください。推測でなら、いったんショットを開いた後、いくつかのフレームをコマ送りしてください。2ステップで次のコマに行くなら、一旦戻ってShot/Edit Shotメニューの項目を選択し、設定を修正してください。JPEGシーケンスなどのnon-field-savvyコーデックで圧縮されたソースビデオにはYesかNoneを使用してください。 Apply Preset 異なったフィルム形式のリストをドロップダウンからクリックしてください。それらの1つを選択すると、 Image Aspect ・ Back Plate ・ Anamorphic Squeeze や、大部分のパラメーターがプリセットによって設定されるでしょう。あなたは、自分のプリセットを、作成・変更・消去できます。プリセットリストの一番下の、 Save As や Delete を使用して、登録します。 Image aspect ratio(縦横比) 画像の幅を高さで割った値。1.333はビデオ,1.777はHDTV, 2.35や他の値はフィルムです。注意 通常、これはimage preprocessorへの縦横比入力です。 右下に示された“Final aspect”は、 image preprocessor から出て来る縦横比です。 ひずみを適用し、 image preprocessor がモードを適用するように設定されるなら、このスピナーの値は出力された縦横比です。(その比は、オリジナルのショットの縦横比です)。 右下で“Final aspect”を見る代わりに、“source aspect.”とラベルされて、入力されたイメージの縦横比は出てくるでしょう。 Pixel aspect ratio それぞれの画素の縦横比。 (画素の縦横比は最終的なイメージのためのもので、アナモルフィック・ネガの画素の、細い幅ではない。) Back Plate Width バーチャルカメラの焦点距離の解析を決定し、“film”の幅を設定します。 特定のカメラにおいて、焦点距離とバックプレート幅の実際の値が、“book values” といつもわずかに異なっていることに注意してください。注意 Mayaはこの値に関して、非常に気難しいです。 Back Plate Height 幅、イメージ比率および縮尺から計算された、フィルムの高さ。 Back Plate Units. in が表示されている時はインチ、 mm の時はミリメートルです。 クリックして、希望する方に変更してください。 Anamorphic Squeeze アナモルフィック・レンズがフィルム・カメラで使用されているとき、ワイドスクリーンイメージをより細長いネガまで絞ります。 圧縮要素は多くの絞りがどうかかわるかを反映します。2の値は、最終的なイメージがマイナス2倍広いことを意味します。 圧縮を便利に提供します。それは全体的なSynthEyesシーンで必要ではありません。 Negative s Aspect アナモルフィックな圧縮が存在していない場合、最終的なイメージと同じ値の、マイナス縦横比。 イメージの比率と圧縮要素から計算されています。 Prepend Extra Frames shot/Change Shot Imageryメニューアイテムの間だけ、選択可能です。 このスピナーは、追加フレームがショットの始めに加えられるのを示し、それは全てのトラッカー、 オブジェクトのパス、スプラインなどは後でショットにかほど移行するべきです。 Exposure Adjustment 読まれた、多くの絞り値による、ショットの露出の増減の調節。 値を変えると、メインウィンドウが更新されます。 これは、CineonやDPXなどの特定の画像形式だけに反応します。浮動小数点形式のOpenEXRは特に重要です。 HiRez 手動トラッキングのための、画素間の再サンプリングと補間法の量のプリセット。 いくらかトラッキングが遅くなりますが、より大きい値とより高度なタイプはより鮮明なイメージを与え、 より良いトラッキングデータになるかもしれない。 デフォルトのLinear x 4で、大概十分でしょう。 より高度なタイプは、高品質の圧縮されていないソース場面のために検討することができます。 Queue Length RAMに格納する(全てのフレームが望ましい)、フレームの数。 関連しているディスプレイには、どのくらいのメモリがコンピュータに残っているかを示しています。 Photoshopや3Dアプリケーションの様なRAMが必要な他のアプリケーションは蓄えたメモリー容量を減少させるかもしれません。 とにかく、SynthEyesを稼働している間、それらの他のアプリケーションを一時的に遅くなるのを気にしないならば、マシンの多くの物理メモリ(RAM)を必要とする、キューの長さを要求できます。 比較的わずかなメモリー容量だけが、1,000個以上のフレーム、または大きい・動作中・フィルムスキャンのショットを除いた、自動トラッキングのために必要です。 16 Bit/Channel 入力ファイルが1チャンネルあたり16bitなら、16bitで処理されるか8bitに減らすかを、このチェックボックスで制御します。 8bitのイメージは多少正確ではありませんが、軽く、16bitと比べると速いです。 逆に、16bitのイメージは正確ですが、重く、8bitに比べると遅いです。 あなたは、16bitで自動トラッキングをし、そして、ショットを素早くスクラブするために、8bitに落とすことができます。 Keep Alpha チェックすると、ファイルを開くときに、SynthEyesはアルファチャンネル付きで処理します(ロトスコープするために、アルファチャンネルの使用が無いように見えても)。 レンズディストーションやスタビライズのために image preprocessor を使い、アルファチャンネルも一緒に書き出したいとき、チェックしてください。 Image Preprocessing 様々なイメージレベル調整で、トラッキングをよりやり易くする、画像前処理(準備)ダイアログがあります (マシンよりも、人間の為のもの)。 色やガンマなどの調節ができ、シングルチャンネルや表示領域を制限するなど、メモリの使用を抑えるオプションもあります。 また、このダイアログは、スタビライズ機能も提供します。 Memory Status 画像の解像度・画像のRAMに取り込まれるサイズ(MB表記)・ショットのスレーム数・ マシンが使える残りのRAMの量と、シーケンスを取り込むのに必要なメモリー容量の見積もりが表示されます。 最後の必要メモリー容量が、目安に過ぎないことに注意してください。この後の(トラッキング等の)処理によって、 変わってきます。1フレーム目のサイズで必要なメモリー量を計算しているので、 Image Preprocessing システムで表示領域を変更した場合、 非常に不正確になります。 また、 Image Preprocessing 処理後から出てくる、最終的な縦横比もここに示されています。 それは Image Preprocessing によって実行された、再サンプリング、パディング(空白部分の埋め合わせ)、 およびクロッピング(必要な領域を指定し、画像を切り取ること)を反映します。 ロードした後に ショットをロードするためにOKを押すと、素早くアクセス出来るように、RAMにシーケンスを読み込み始めます。 ショットを通して、再生やスクラブをするのに、プレイバーとタイムバーを使用できます。注意! この処理は、RAIDディスクなどの高速処理量装置を利用して出来るだけ速くすべてをロードしようとし、プロセッサに負荷を掛けます。 しかしながら、フッテージが低帯域幅のリモートドライブの状態だと、OSがデータを得ようとして、マシンは一時的に鈍くなるかもしれません。 これを避けたいなら、 Shot メニューで Enable Prefetch をオフにするか、または preference の Prefetch enable をオフに変更してください。 下記のような、RAMにイメージを読み込むのに役立つ、 Image Preprocessing を使用できます。 ショットがRAMをうまく読み込まなくても、timebarの小さい緑色の、赤い再生マーカーを使用することでショットの一部のRAM再生を得ることができます。 あなたはループにしたい部分をドラッグすることができます。 時々、全体のショットを開きたくなるかもしれませんが、読み込んでいる部分だけをトラッキング・解析してください。 タイムバーのショットの両端をshift+ドラッグして、再生範囲を変更できます。 ここで、座標系タイプ(MAX, Maya, Lightwaveなどに適したもの)を選んでください。 必要なら、 scene setting や preference の調整をしてください。 Changing the Imagery You may need to replace the imagery of a shot, for example, with lower- or higher-resolution versions. Use theShot/Change Shot Imagesmenu item to do this. The shot settings dialog will re-appear, so you can adjust or correct settings such as the aspect ratio. When activated as part of Change Shot Images, the shot settings dialog also features aPrepend Extra Framessetting. If you have tracked a shot, but suddenly the director wants to extend a shot with additional frames at the beginning, use the Change Shot Images selection, re-select the shot with the additional images, and set the Prepend Extra Frames setting to the number of additional frames. This will shift all the trackers, splines, object paths, etc later in the shot by that amount. You can extend the trackers or add additional ones, and re-solve the shot. Note that if frames from the beginning of the shot are no longer needed, you should leave them in place, but change the shot start value by shift-dragging it in the time bar. あなたは例えば、ショットの画質を低い、あるいはより高い解像度のバージョンで置き換える必要があるかもしれません。 これを行うために、Shot/Change Shot Imagesmenu項目を使用してください。 shot settings dialog が再び表示されるでしょう、それであなたはアスペクト比のような設定を調整したり修正することができます。 Change Shot Imagesの一部として作動するるとき、shot settings dialogは同じくPrepend Extra Framessetting として起用します。 もしあなたがショットを追跡した、しかし突然ディレクタが始めに追加のフレームでショットを拡張することを望むなら、Change Shot Images セレクションを使って、ショットの追加のイメージを再び選択して、Prepend Extra Framesで追加のフレームをセットしてください。 これはその量によってショットすべてのトラッカー、スプライン、オブジェクトパスなどを変えるでしょう。 あなたはトラッカーを延長するか、あるいは追加を加えて、ショットを解決することができます。 もしショットの最初からのフレームがもう必要とされないなら、実施されているままにしておくべきであることに注意してください、しかし、タイムバーにそれをシフト - ドラッグで、ショットのスタート値を変えてください。 Image Preprocessing Basics The image preparation dialog provides a range of capabilities aimed at the following primary issues · Stabilizing the images, reducing wobbles and jiggles in the source imagery, · Making features more visible, especially to you for supervised tracking, · Reducing the amount of memory required to store the shot in RAM, to facilitate real-time playback, · Correcting image geometry distortion or the optic axis position. You can activate the image preprocessing panel either from the Open-Shot dialog, or from the Shot menu directly. The individual controls of the image preprocessor are spread among several tabbed subpanels, much like the main SynthEyes window. These include Rez, Levels, Cropping, Stabilize, Lens, Adjust, Output, and ROI. As you modify the image preprocessing controls, you can use the frame spinner and assorted buttons to move through the shot to verify that the settings are appropriate throughout it. Fetching and preprocessing the images can take a while, especially with film-resolution images. You can control whether or not the image updates as you change the frame# spinner, using the control button on the right hand side of the image preprocessor. The image preprocessing engine affects the shots as they are read from disk, before they are stored in RAM for tracking and playback. The preprocessing engine can change the image resolution, aspect ratio, and overall geometry. Accordingly, youmust take care if you change the image format---if you change the image geometry, you may need to use theApply to Trackersbutton, or you will have to delete the trackers and do them over, since their positions will no longer match the image currently being supplied by the preprocessing engine. (The apply/remove lens distortion script can also help recover.) The image preprocessor allows you to create presets within a scene, so that you can use one preset for the entire scene, and a separate preset for a small region around a moving object, for example. Image Adjustments As mentioned, the image adjustments allow you to fix up the image a bit to make it easier for you and SynthEyes to see the features to be tracked. The preprocessor s image adjustments encompass the basic saturation and hue, level adjustments, and channel selection. The level adjustments map the specified Low level to blackest black out (luma=0), and specified High level to whitest white (luma=1), so that you can select a portion of the dynamic range to examine. The Mid level is mapped to 50% gray (luma=0.5) by performing a gamma-type adjustment; the gamma value is displayed and can be modified. You should be a bit careful that in the interests of making the image look good on your monitor, you don’t compress the dynamic range into the upper end of brightness, which reduces that actual contrast available for tracking. The level adjustments can be animated to adjust over the course of the shot, see the section on animated shot setup below. It may be worthwhile to use only one of the R, G, or B channels for tracking, or perhaps the basic luminance, as obtained using the Channel setting. (The Alpha channel can also be selected, mainly for a quick check of the alpha channel.) If you think selecting a single channel might be a good idea, be sure to check them all. If you are tracking small colored trackers, especially on video, you will find they often aren’t very colorful. Rather than trying to increase the saturation, use a different channel. For example, with small green markers for face tracking, the red channel is probably the best choice. The blue channel is usually substantially noisier than red or green. The hue adjustment can be used to tweak the color before the channel selection; by making yellows red, you can have a virtual yellow channel, for example. Note that you can change the image adjustments in this section without having to re-track, since the overall image geometry does not change. Minimizing Grain The grain in film images can perturb tracking somewhat. Use the Blur setting on the image preparation panel to slightly filter the image, minimizing the grain. This tactic can be effective for compression artifacts as well. SynthEyes can stabilize the images, re-size them, or correct for lens distortion. As it does that, it interpolates between the existing pixels. There are severalinterpolation modesavailable. You can produce a sharper image when you are re-sampling using the more advanced modes, but you increase the grain as you do so. Handling Strobes and Explosion Shots Quickly varying lighting can cause problems for tracking, especially supervised tracking. You can reduce the lighting variations by hi-pass filtering the image with the Hi-Pass setting. The image will turn into a fairly monotonous gray version (consider using only the Luma channel to save memory). The Hi-Pass setting is also a Gaussian filter size, but it is generally much larger than a 2-pixel blur to compensate for grain, say around 10 pixels. The larger the value, the more the original image will “show through,” which is not necessarily the objective, and the longer it will take to process. You can increase the hi-pass image contrast using the Levels settings, for example low=0.25, high=0.75. You can use a small blur for grain/compression in conjunction with the high-pass filtering. It will also reduce any slight banding if you have used the Levels to expand the range. Memory Reduction It is much faster to track, and check tracking, when the shot is entirely in the PC s RAM memory, as fetching each image from disk, and possibly decompressing it, takes an appreciable amount of time. This is especially true for film-resolution images, which take up more of the RAM, and take longer to load from disk. SynthEyes offers several ways to control RAM consumption, ranging from blunt to scalpel-sharp. Starting from the basic Open-Shot dialog, if your source images have 16 bit data, you can elect to reduce them to 8 bit for storage, by unchecking the 16-bit checkbox and reducing memory by a factor of two. Of course, this doesn’t help if the image is already 8 bit. If you have a 2K or 4K resolution film image, you might be able to track at a lower resolution. The DeRez control allows you to select ½ or ¼ image resolution selections. If you reduce resolution by ½, the storage required drops to ¼ the previous level, and a reduction by ¼ reduces the storage to 1/16ththe prior amount, since the resolution reduction affects both horizontal and vertical directions. Note that by reducing the incoming image resolution, your tracks will have a higher noise level which may be unacceptable; this is your decision. If you can track using only a single channel, such as R, G, or luma, you obtain an easy factor of 3 reduction in storage required. The most precise storage reduction tool is theRegion Of Interest (ROI), which preserves only a moving portion of the image that you specify, and makes the rest black. The black portion does not require any RAM storage, so if the ROI is only 1/8ththe width and height of the image, a reduction by 1/64thof storage is obtained. The region of interest is very useful with object-type shots, such as tracking a face or head, a chestplate, a car driving by, etc, where the interesting part is comparatively small. The ROI is also very useful in supervised tracking, where the ROI can be set up for a region of trackers; once that region is tracked, a different ROI can be configured for the next group. A time savings can be achieved even though the next group will require an image sequence reload. (See the section on presets, below, to be able to save such configurations.) The ROI is controlled by dragging it with the left mouse button in the Image Preprocessing dialog s viewport. Dragging the size-control box at its lower right of the ROI will change the ROI size. The next section describes animating the preprocessing level and ROI. It can also be helpful to adjust the ROI controls when doing supervised tracking of shots that contain a non-image border as an artifact of tracking. This extra border can defeat the mechanism that turns off supervised trackers when they reach the edge of the frame, because they run out of image to track before reaching the actual edge. Once the ROI has been decreased to exclude the image border, the trackers will shut off when they go outside the usable image. As with the image adjustments, changing the memory controls does not require any re-tracking, since the image geometry does not change. Animated Shot Setup The Level, Saturation/Hue, lens Field of View, Distortion/Scale, stabilizer adjustment, and Region of Interest controls may be animated, changing values over the course of the shot. Normally, when you alter the Level or ROI controls, a key at the first frame of the shot is changed, setting a fixed value over the entire shot. To animate the controls, turn on the Make Keys checkbox () at lower right of the image prep dialog. Changes to the animated controls will now create keys at the current frame, causing the spinners to light up with a red outline on keyframes. You can delete a keyframe by right-clicking a spinner. If you turn off Make Keys after creating multiple keys, subsequent changes will affect only the keyframe at the start of the shot (frame zero), and not subsequent keys, which will rarely be useful. You can navigate within the shot using the next frame and previous frame buttons, the next/previous key buttons, or the rewind and to-end buttons. Temporarily Disabling Preprocessing Especially when animating a ROI, it can be convenient to temporarily turn off most of the image preprocessor, to help you find what you are looking for. The enable button (a stoplight) at the lower right will do this. The color modifications, level adjustment, blur, down-sampling, channel selection, and ROI are all disabled by the enable button. The padding and lens distortion are not affected, since they change the image geometry—you do not want that to change or you can not then place the ROI in the correct location. Disabling Prefetch SynthEyes reads your images into RAM using a sophisticated multithreaded prefetch engine, which runs autonomously much of the time when nothing else is going on. If you have a smaller machine or are maybe trying to run some renders in the background, you can turn off theShot/Enable prefetchsetting on the main menu. Get Going!You don’t have to wait for prefetch to finish after you open a shot. It doesn’t need courtesy. You can plough ahead with what you want to do; the prefetcher is designed to work quietly in the background. Correcting Lens Distortion Most animation software assumes that the camera is perfect, with no lens distortion, and the camera s optic axis falls exactly in the center of the image. Of course, the real world is not always so accommodating. SynthEyes offers two methods to determine the lens distortion, either via a manual process that examines the image curvature of lines that are straight in the real world, or as a result of the solving process, if enough reliable trackers are available. SynthEyes accommodates the distortion, but your animation package probably will not. As a consequence, a particular workflow is required that we will introduce shortly and in the section on Lens Distortion. The image preprocessing system lets distortion be removed, though after doing so, any tracking must be repeated or corrected, making the manual distortion determination more useful for this purpose. The image preprocessing dialog offers a spinner to set the distortion to match that determined. A Scale spinner allows the image to be scaled up or down a bit as needed to compensate for the effect of the distortion removal. You can animate the distortion and scale to correct for varying distortion during zoom sequences. Image Centering The camera s optic axis is the point about which the image expands or contracts as objects move closer or further away. Lens distortion is also centered about this point. By convention of SynthEyes and most animation and compositing software, this point must fall at the exact center of the image. Usually, the exact optic center location in the image does not greatly affect the 3-D solving results, and for this reason, the optic center location is notoriously difficult to determine from tracking data without a laboratory-grade camera and lens calibration. Assuming that the optic axis falls in the center is good enough. There are two primary exceptions when an image has been cropped off-center, or when the shot contains a lot of camera roll. If the camera rolls a lot, it would be wise to make sure the optic axis is centered. Images can be cropped off-center during the first stages of the editorial process (when a 4 3 image is cropped to a usable 16 9 window), or if a film camera is used that places the optic axis allowing for a sound channel, and there is none, or vice versa (none is allowed for, but there is one). Image stabilization or pan/scan-type operations can also destroy image centering, which is why SynthEyes provides the tools to perform them itself, so they can be done correctly. Of course, shots will arrive that have been seriously cropped already. For this reason, the image preprocessing stage allows images to be padded up to their original size, putting the optic axis back at the correct location. Note that padding up is necessary, not even further cropping! It will be important to identify the degree of earlier cropping, to enable it to be corrected. The Fix Cropping (Pad) controls have two sets of three spinners, three each for horizontal and for vertical. Both directions operate the same way. Suppose you have a film scan such that the original image, with the optic axis centered, was 33 mm wide, but the left 3 mm were a sound track that has been cropped. You would enter 3 mm into the Left Crop spinner, 30 mm into the Width Used spinner, and 0 mm into the Right Crop spinner. The image will be padded back up to compensate for the imagery lost during cropping. The Width Used spinner is actually only a calculation convenience; if you later reentered the image preprocessing dialog you would see that the Left Crop was 0.1 and the Width Used 1.0, ie that 10% of the final width was cropped from the left. The Fix Cropping (Pad) controls change the image aspect ratio and image resolution values on the Open Shot dialog, since the image now includes the padded regions. The padding region will not use extra RAM, however. Image Preparation Preset Manager It can be helpful to have several different sets of image preprocessor settings, tailored to different regions of the image, or to different moving objects, or different sections of the overall shot. A preset manager permits this; it appears as a drop-down list at the center-bottom of the image preparation dialog. You can create a preset by selecting the New Preset item from the list; you will be prompted for the name (which you can later change via Rename). The new preset is created with the current settings, your new preset name appears and is selected in the preset manager listbox, and any changes you make to the panel continue to update your new preset. (This means that when you are creating several presets in a row, create each preset before modifying the controls for that preset.) Once you have created several presets, you can switch among them using the preset manager list. All changes in the image preprocessor controls update the preset active at that time. If you want to play for a bit without affecting any of your existing presets, switch to thePreset Mgr.setting, which acts as a catchall (it disconnects you from all presets). If you then decide you want to keep the settings, create a new preset. To reset the image preprocessor controls (and any active preset) back to the initial default conditions, which do nothing to the incoming image, select the Reset item from the preset manager. When you are creating several presets, this can be handy, allowing you to start a new preset from scratch if that is quicker. Finally, you can delete the current preset by selecting the Delete item. Rendering Sequences for Later Compositing The tracking results provided by SynthEyes will not produce a match within your animation or compositing package unless that package also uses the same padded, stabilized, resampled, and undistorted footage that SynthEyes tracked. This is also true of SynthEyes s perspective window. Use the Save Sequence button on the Image Preparation dialog s Output tab to save the processed sequence. If the source material is 16 bit, you can save the results as 16 bit or 8 bit. You can also elect whether or not to save an alpha channel, if present. If the source has an alpha channel, but you are not given the option to save it, open the Edit Shot dialog and turn on the Keep Alpha checkbox. Output file formats include Quicktime, BMP, Cineon, DPX, JPEG, OpenEXR, PNG, SGI, Targa, TIFF(Mac only). Details of supported number of bits per channel and alpha availability vary with format and platform. If you have stabilized the footage, you will want to use this stabilized footage subsequently. However, if you have only removed distortion, you have an additional option that maximized image quality and minimizes the amount of changes made to the original footage you can take your rendered effects and run them back through the image preprocessor (or maybe your compositing package) to re-introduce the distortion and cropping specified in the image preprocessing panel, using the Apply It checkbox. This redistorted footage can then be composited with theoriginalfootage, preserving the match. The complexity of this workflow is an excellent argument for using high-quality lenses and avoiding excessively wide fields of view (short focal lengths). You can also use theSave Sequence dialogto render an alpha mask version of theroto-spline informationand/orgreen-screenkeys.
https://w.atwiki.jp/sampleisbest/pages/589.html
開発環境 Microsoft Visual Studio Community 2019 実行環境 Microsoft Windows 10 Home (64bit) プロジェクト テンプレート C++ 空のプロジェクト プロジェクト名 dx9sample2 参考 HLSLによる極短レンダリング:サンプルプログラム DirectX Software Development Kit (DXSDK_Jun10)をインストールする。 Download DirectX Software Development Kit from Official Microsoft Download Center プロジェクト構成プロパティ VC++ ディレクトリに以下のパスを追加する。 インクルード ディレクトリ C \Program Files (x86)\Microsoft DirectX SDK (June 2010)\Include ライブラリディレクトリ C \Program Files (x86)\Microsoft DirectX SDK (June 2010)\Lib\x86 dx9sample2.cpp #pragma comment(lib, "d3d9") #pragma comment(lib, "d3dx9") #include Windows.h #include d3d9.h #include d3dx9.h #define SAFE_RELEASE(p) if(p){p- Release();p=NULL;} struct CUSTOM_VTX { float x, y, z; DWORD color; }; #define CUSTOM_FVF (D3DFVF_XYZ | D3DFVF_DIFFUSE) // 外部変数 LPDIRECT3D9 pD3D; LPDIRECT3DDEVICE9 pD3DDev; LPD3DXEFFECT pEffect; IDirect3DVertexBuffer9* pVertex; IDirect3DVertexDeclaration9* pDecl; float t = 0; // 関数プロトタイプ宣言 LRESULT CALLBACK WndProc(HWND hWnd, UINT msg, WPARAM wParam, LPARAM lParam); HWND InitWindow(HINSTANCE hInstance, int nCmdShow); HRESULT InitD3D(HWND hWnd); void Cleanup(); void Render(); int WINAPI wWinMain(HINSTANCE hInstance, HINSTANCE, LPWSTR, int nCmdShow) { HWND hWnd = InitWindow(hInstance, nCmdShow); if (!hWnd) return -1; HRESULT hr = InitD3D(hWnd); if (FAILED(hr)) { Cleanup(); return -1; } ShowWindow(hWnd, nCmdShow); MSG msg = { 0 }; while (msg.message != WM_QUIT) { if (PeekMessage( msg, NULL, 0, 0, PM_REMOVE)) { TranslateMessage( msg); DispatchMessage( msg); } else { Render(); } } Cleanup(); return msg.wParam; } LRESULT CALLBACK WndProc(HWND hWnd, UINT msg, WPARAM wParam, LPARAM lParam) { switch (msg) { case WM_DESTROY PostQuitMessage(0); return 0; } return DefWindowProc(hWnd, msg, wParam, lParam); } HWND InitWindow(HINSTANCE hInstance, int nCmdShow) { WNDCLASSEX wc = { sizeof WNDCLASSEX }; wc.style = CS_HREDRAW | CS_VREDRAW; wc.lpfnWndProc = WndProc; wc.hInstance = hInstance; wc.hbrBackground = HBRUSH(COLOR_WINDOW + 1); wc.lpszClassName = L"dx9sample2"; if (!RegisterClassEx( wc)) return NULL; DWORD deStyle = WS_OVERLAPPEDWINDOW ^ WS_MAXIMIZEBOX ^ WS_THICKFRAME; RECT rc = { 0, 0, 400, 400 }; AdjustWindowRect( rc, deStyle, FALSE); HWND hWnd = CreateWindow( wc.lpszClassName, L"dx9sample2", deStyle, CW_USEDEFAULT, 0, rc.right - rc.left, rc.bottom - rc.top, NULL, NULL, hInstance, NULL); return hWnd; } HRESULT InitD3D(HWND hWnd) { HRESULT hr; pD3D = Direct3DCreate9(D3D_SDK_VERSION); if (!pD3D) return E_FAIL; D3DPRESENT_PARAMETERS d3dpp = { 0 }; d3dpp.BackBufferFormat = D3DFMT_UNKNOWN; d3dpp.MultiSampleType = D3DMULTISAMPLE_NONE; d3dpp.SwapEffect = D3DSWAPEFFECT_DISCARD; d3dpp.Windowed = TRUE; d3dpp.AutoDepthStencilFormat = D3DFMT_UNKNOWN; d3dpp.PresentationInterval = D3DPRESENT_INTERVAL_DEFAULT; hr = pD3D- CreateDevice( D3DADAPTER_DEFAULT, D3DDEVTYPE_HAL, hWnd, D3DCREATE_HARDWARE_VERTEXPROCESSING, d3dpp, pD3DDev); if (FAILED(hr)) return hr; // ファイルからシェーダを作成 LPD3DXBUFFER pError; hr = D3DXCreateEffectFromFile( pD3DDev, L"effect.fx", NULL, NULL, D3DXSHADER_DEBUG, 0, pEffect, pError); if (FAILED(hr)) { if (pError) { OutputDebugStringA((LPCSTR)pError- GetBufferPointer()); } SAFE_RELEASE(pError); return hr; } SAFE_RELEASE(pError); // x, y, z, ARGB CUSTOM_VTX vtx[] = { { 0, 0, 1, 0xff0000ff }, { 0, 1, 0, 0xff00ff00 }, { 1, 0, 0, 0xffff0000 }, }; // 頂点バッファの作成 hr = pD3DDev- CreateVertexBuffer( sizeof vtx, D3DUSAGE_WRITEONLY, CUSTOM_FVF, D3DPOOL_MANAGED, pVertex, NULL); void* pData; hr = pVertex- Lock(0, 0, pData, 0); memcpy(pData, vtx, sizeof vtx); hr = pVertex- Unlock(); // 頂点宣言の作成 D3DVERTEXELEMENT9 ve[] = { { 0, 0, D3DDECLTYPE_FLOAT3, D3DDECLMETHOD_DEFAULT, D3DDECLUSAGE_POSITION, 0 }, { 0, 12, D3DDECLTYPE_D3DCOLOR, D3DDECLMETHOD_DEFAULT, D3DDECLUSAGE_COLOR, 0 }, D3DDECL_END() }; hr = pD3DDev- CreateVertexDeclaration(ve, pDecl); return S_OK; } void Cleanup() { SAFE_RELEASE(pDecl); SAFE_RELEASE(pVertex); SAFE_RELEASE(pEffect); SAFE_RELEASE(pD3DDev); SAFE_RELEASE(pD3D); } void Render() { pD3DDev- Clear(0, NULL, D3DCLEAR_TARGET, D3DCOLOR_XRGB(0, 0, 0), 1, 0); pD3DDev- BeginScene(); D3DXMATRIX mat; D3DXMatrixRotationZ( mat, t); pEffect- SetMatrix("mat", mat); t += 0.01f; pEffect- SetTechnique("T0"); UINT pass; pEffect- Begin( pass, 0); pEffect- BeginPass(0); pD3DDev- SetStreamSource(0, pVertex, 0, sizeof CUSTOM_VTX); pD3DDev- SetVertexDeclaration(pDecl); pD3DDev- DrawPrimitive(D3DPT_TRIANGLELIST, 0, 1); pEffect- EndPass(); pD3DDev- EndScene(); pD3DDev- Present(NULL, NULL, NULL, NULL); } effect.fx struct VS_INPUT { float4 pos POSITION; float4 color COLOR; }; struct VS_OUTPUT { float4 pos POSITION; float4 color COLOR; }; // constant float4x4 mat; VS_OUTPUT VS(VS_INPUT input) { VS_OUTPUT output; //output.pos = input.pos; output.pos = mul(input.pos, mat); output.color = input.color; return output; } float4 PS(float4 color COLOR) COLOR { return color; } technique T0 { pass P0 { VertexShader = compile vs_2_0 VS(); PixelShader = compile ps_2_0 PS(); } }
https://w.atwiki.jp/hmiku/pages/36617.html
【登録タグ JASRAC管理曲 S ささくれP 初音ミク 曲 殿堂入り】 作詞:ささくれP 作曲:ささくれP 編曲:ささくれP 唄:初音ミク 曲紹介 この世界は奴に支配されている。 「白猫プロジェクト×初音ミク」コラボ書き下ろし楽曲。 歌詞 (動画より書き起こし) この世界は奴に支配されている 右も左もノイズの彩(さい) 無数のキカイなコード異常全て 僕等のウタをシン蝕する この世界でオトを集めていた 刻まれる鼓動(ビート)僕はただ サンプル⇔リサンプル繰り返し 君がiしたウタを噛み砕いていた ほどけそうな夜に 理解不能 しがみついたモンスター 教えて ノイズに覆われた 心臓(ココロ)を嘲笑う SAMPLING MONSTER 僕等はどうして コトバを散らかしながら生きている SAMPLING MONSTER 僕等はいつから ココロを散らかしながら生きている SAMPLING MONSTER 僕等はもう既に ノイズだらけのウタ唄うモンスター SAMPLING MONSTER 誰か教えて 傷だらけいびつなアンデッドアンサー 理解不能が押し寄せて狂う 無数のiがオトに支配される 理解不能が押し寄せて狂う 無数のiが刻まれる SAMPLING まだヒトは知らない ノイズだらけのこの世界が愛しい理由(ワケ)を ワンダー 僕は知らない 胸の奥から溢れてくる激情(ノイズ)の雨を コメント おおおおおうぽつです!! -- (* u *) (2017-08-29 23 33 41) うわぁぁぁぁぁ! -- 名無しさん (2017-09-20 17 08 23) これめっちゃ好きだからフルで聞きたい -- 名無しさん (2018-05-05 19 39 53) フルあるやん -- 名無しさん (2023-06-07 18 07 59) 名前 コメント